"Backpropagation and the brain" realized in cortical error neuron microcircuits|bioRxiv(2025)
その活動がどのように学習に使われているかは未解明
高次領域→低次領域の生成
低次領域→高次領域の識別
予測ニューロンと誤差ニューロンは厳密な1-1対応はない
presynaptic rate × postsynaptic voltage difference (delta rule)
$ Δw_{ij}∝r_{i}^{pre}×(V_{j}^{post}−\hat{V}_{j})
preの活動が強くかつpostの電位が予測より強かった時に強められる
https://scrapbox.io/files/6900f5004bf7590127a72906.png
膜電位ダイナミクスの方程式
表現ユニット
https://scrapbox.io/files/6900f1a276c93f40fffa9fea.png
https://scrapbox.io/files/6900f5986dd456037773bc74.png
https://scrapbox.io/files/6900f1e1676a1b340d46fe9d.png
https://scrapbox.io/files/6900f149a7a641d93478e912.png
https://scrapbox.io/files/6900f1d079c2a8af45339268.png
$ 𝜏_𝑟 は「prospective time constant(予測時間定数)」
𝑢ˇ(𝑡) は「将来を見越した(prospective)」膜電位
ϕ(⋅) は発火関数
現在の入力に反応するだけでなく、これから電位がどちらに変化しそうか(d/dt項)も考慮して発火率を決める
エラーユニット
https://scrapbox.io/files/6900f54218f7e56c350a5735.png
https://scrapbox.io/files/6900f56cfe647be56b94d326.png
https://scrapbox.io/files/6900f67888d9d5ad9625ff8f.png
今回の論文が提案するエラーの計算
https://scrapbox.io/files/6900f78cfc90afd2e1da03ee.png
BPで使われているエラーの計算
https://scrapbox.io/files/6900f7964bf7590127a732e7.png
https://scrapbox.io/files/69017f06326a4d40b430d678.png
(18)をそのまま平均するとノイズは正負があるので0になってしまう
ReLUなどの非線形関数を通してから平均することで微分を取り出す https://scrapbox.io/files/690181fdc20876aa4d0644d2.png
https://scrapbox.io/files/6901856e84cfd8b6377411ec.png
https://scrapbox.io/files/69018653707c7a89a3b8fbc6.png
https://scrapbox.io/files/690188ad8c2b4c8c38c3048e.png
領域内の局所的な結合Lに関しては固定
https://scrapbox.io/files/690185de0dc632cfbe671b2e.png
恒等行列に小さなノイズを加えたもの
エラーと予測ユニット間はゆるい一対一の結合